اخبار روزفناوری

OpenAI از کاربران ChatGPT-4o می‌خواهد که به دلیل تعاملات انسان‌مانند، احساسات خود را نسبت به آن ایجاد نکنند.

OpenAI از کاربران ChatGPT-4o می‌خواهد که به دلیل تعاملات انسان‌مانند، احساسات خود را نسبت به آن ایجاد نکنند.

ChatGPT-4o آخرین نسخه از خط ربات چت OpenAI است، و همانطور که انتظار دارید، شرکت ها نگرانی هایی در مورد نحوه تعامل کاربران با آن دارند. با توجه به اینکه آخرین نسخه می‌تواند رفتار و پاسخ‌هایی شبیه انسان از خود نشان دهد، شرکت هوش مصنوعی نگران است که کاربران نسبت به ربات چت احساس کنند.

ChatGPT-4o پاسخ‌های سریع‌تر و حتی ویژگی صوتی جدیدی را ارائه می‌دهد که گفتار انسان را شبیه‌سازی می‌کند، که دقیقاً همان چیزی است که مربوط به OpenAI است

در حالی که استارت‌آپ میلیارد دلاری به اصلاح محصول خود ادامه می‌دهد، نمی‌تواند متوجه برخی الگوهای کاربران ChatGPT-4o نشود. هدف از راه اندازی چت بات جدید ارائه تجربه ای شبیه به صحبت کردن با انسان بود، اما به نظر می رسد OpenAI ارتباط عاطفی را که می تواند بین کاربران و برنامه ایجاد شود دست کم گرفته است. این شرکت یافته های خود را در زیر برجسته کرده است.

“در طول آزمایش اولیه، از جمله تیم قرمز و آزمایش کاربر داخلی، کاربران را مشاهده کردیم که از زبانی استفاده می کنند که ممکن است نشان دهنده ایجاد ارتباط با مدل باشد. به عنوان مثال، این شامل زبانی است که پیوندهای مشترک را بیان می کند، مانند “این آخرین روز ما با هم است.” در حالی که این موارد خوش خیم به نظر می رسند، اما نشان دهنده نیاز به تحقیقات مداوم در مورد چگونگی ظاهر شدن این اثرات در دوره های زمانی طولانی تر هستند. جمعیت‌های کاربری متنوع‌تر، با نیازها و خواسته‌های متنوع‌تر از مدل، علاوه بر مطالعات آکادمیک و داخلی مستقل به ما کمک می‌کنند تا این حوزه خطر را به‌طور دقیق‌تر تعریف کنیم.

اجتماعی‌سازی انسان‌مانند با یک مدل هوش مصنوعی ممکن است اثرات بیرونی ایجاد کند که بر تعاملات انسان به انسان تأثیر بگذارد. به عنوان مثال، کاربران ممکن است با هوش مصنوعی روابط اجتماعی برقرار کنند و نیاز آنها به تعامل انسانی را کاهش دهد – به طور بالقوه برای افراد تنها مفید است اما احتمالاً بر روابط سالم تأثیر می گذارد. تعامل گسترده با مدل ممکن است بر هنجارهای اجتماعی تأثیر بگذارد. به عنوان مثال، مدل‌های ما متواضعانه هستند و به کاربران اجازه می‌دهند هر زمان که بخواهند قطع کنند و میکروفون را بگیرند، که اگرچه برای یک هوش مصنوعی انتظار می‌رود، اما در تعاملات انسانی ضد هنجار است.»

ایجاد احساسات برای ChatGPT-4o برای موارد مختلف مضر است. نکته اصلی این است که قبلاً، کاربران هر گونه توهم را نادیده می گرفتند زیرا تکرارهای قبلی چت بات باعث می شد که آنها بیشتر شبیه یک برنامه هوش مصنوعی به نظر برسند تا یک شخص. اکنون، زمانی که برنامه به سمت ارائه تجربه‌ای تقریباً شبیه انسان می‌رود، هر چیزی که گفته می‌شود می‌تواند بدون سؤال بیشتر پذیرفته شود.

openai d8a7d8b2 daa9d8a7d8b1d8a8d8b1d8a7d986 chatgpt 4o d985db8cd8aed988d8a7d987d8af daa9d987 d8a8d987 d8afd984db8cd984 d8aad8b9d8a7 66b876efbdc73

با توجه به این الگوها، OpenAI اکنون نحوه ایجاد پیوندهای عاطفی افراد با ChatGPT-4o را نظارت می کند و آن را تغییر می دهد. سیستم ها بر این اساس این شرکت همچنین باید در ابتدا یک سلب مسئولیت اضافه کند تا کاربران عاشق آن نشوند زیرا در نهایت این یک برنامه هوش مصنوعی است.

منبع خبر: OpenAI

این داستان را به اشتراک بگذارید

< استفاده از xlink:href="#icn-shareFacebook"/> فیس بوک

< استفاده از xlink:href="#icn-shareTwitter"/> توییتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا